25 research outputs found

    Analyzing complex data using domain constraints

    Get PDF
    Data-driven research approaches are becoming increasingly popular in a growing number of scientific disciplines. While a data-driven research approach can yield superior results, generating the required data can be very costly. This frequently leads to small and complex data sets, in which it is impossible to rely on volume alone to compensate for all shortcomings of the data. To counter this problem, other reliable sources of information must be incorporated. In this work, domain knowledge, as a particularly reliable type of additional information, is used to inform data-driven analysis methods. This domain knowledge is represented as constraints on the possible solutions, which the presented methods can use to inform their analysis. It focusses on spatial constraints as a particularly common type of constraint, but the proposed techniques are general enough to be applied to other types of constraints. In this thesis, new methods using domain constraints for data-driven science applications are discussed. These methods have applications in feature evaluation, route database repair, and Gaussian Mixture modeling of spatial data. The first application focuses on feature evaluation. The presented method receives two representations of the same data: one as the intended target and the other for investigation. It calculates a score indicating how much the two representations agree. A presented application uses this technique to compare a reference attribute set with different subsets to determine the importance and relevance of individual attributes. A second technique analyzes route data for constraint compliance. The presented framework allows the user to specify constraints and possible actions to modify the data. The presented method then uses these inputs to generate a version of the data, which agrees with the constraints, while otherwise reducing the impact of the modifications as much as possible. Two extensions of this schema are presented: an extension to continuously valued costs, which are minimized, and an extension to constraints involving more than one moving object. Another addressed application area is modeling of multivariate measurement data, which was measured at spatially distributed locations. The spatial information recorded with the data can be used as the basis for constraints. This thesis presents multiple approaches to building a model of this kind of data while complying with spatial constraints. The first approach is an interactive tool, which allows domain scientists to generate a model of the data, which complies with their knowledge about the data. The second is a Monte Carlo approach, which generates a large number of possible models, tests them for compliance with the constraints, and returns the best one. The final two approaches are based on the EM algorithm and use different ways of incorporating the information into their models. At the end of the thesis, two applications of the models, which have been generated in the previous chapter, are presented. The first is prediction of the origin of samples and the other is the visual representation of the extracted models on a map. These tools can be used by domain scientists to augment their tried and tested tools. The developed techniques are applied to a real-world data set collected in the archaeobiological research project FOR 1670 (Transalpine mobility and cultural transfer) of the German Science Foundation. The data set contains isotope ratio measurements of samples, which were discovered at archaeological sites in the Alps region of central Europe. Using the presented data analysis methods, the data is analyzed to answer relevant domain questions. In a first application, the attributes of the measurements are analyzed for their relative importance and their ability to predict the spatial location of samples. Another presented application is the reconstruction of potential migration routes between the investigated sites. Then spatial models are built using the presented modeling approaches. Univariate outliers are determined and used to predict locations based on the generated models. These are cross-referenced with the recorded origins. Finally, maps of the isotope distribution in the investigated regions are presented. The described methods and demonstrated analyses show that domain knowledge can be used to formulate constraints that inform the data analysis process to yield valid models from relatively small data sets and support domain scientists in their analyses.Datengetriebene Forschungsansätze werden für eine wachsende Anzahl von wissenschaftlichen Disziplinen immer wichtiger. Obwohl ein datengetriebener Forschungsansatz bessere Ergebnisse erzielen kann, kann es sehr teuer sein die notwendigen Daten zu gewinnen. Dies hat häufig zur Folge, dass kleine und komplexe Datensätze entstehen, bei denen es nicht möglich ist sich auf die Menge der Datenpunkte zu verlassen um Probleme bei der Analyse auszugleichen. Um diesem Problem zu begegnen müssen andere Informationsquellen verwendet werden. Fachwissen als eine besonders zuverlässige Quelle solcher Informationen kann herangezogen werden, um die datengetriebenen Analysemethoden zu unterstützen. Dieses Fachwissen wird ausgedrückt als Constraints (Nebenbedingungen) der möglichen Lösungen, die die vorgestellten Methoden benutzen können um ihre Analyse zu steuern. Der Fokus liegt dabei auf räumlichen Constraints als eine besonders häufige Art von Constraints, aber die vorgeschlagenen Methoden sind allgemein genug um auf andere Arte von Constraints angewendet zu werden. Es werden neue Methoden diskutiert, die Fachwissen für datengetriebene wissenschaftliche Anwendungen verwenden. Diese Methoden haben Anwendungen auf Feature-Evaluation, die Reparatur von Bewegungsdatenbanken und auf Gaussian-Mixture-Modelle von räumlichen Daten. Die erste Anwendung betrifft Feature-Evaluation. Die vorgestellte Methode erhält zwei Repräsentationen der selben Daten: eine als Zielrepräsentation und eine zur Untersuchung. Sie berechnet einen Wert, der aussagt, wie einig sich die beiden Repräsentationen sind. Eine vorgestellte Anwendung benutzt diese Technik um eine Referenzmenge von Attributen mit verschiedenen Untermengen zu vergleichen, um die Wichtigkeit und Relevanz einzelner Attribute zu bestimmen. Eine zweite Technik analysiert die Einhaltung von Constraints in Bewegungsdaten. Das präsentierte Framework erlaubt dem Benutzer Constraints zu definieren und mögliche Aktionen zur Veränderung der Daten anzuwenden. Die präsentierte Methode benutzt diese Eingaben dann um eine neue Variante der Daten zu erstellen, die die Constraints erfüllt ohne die Datenbank mehr als notwendig zu verändern. Zwei Erweiterungen dieser Grundidee werden vorgestellt: eine Erweiterung auf stetige Kostenfunktionen, die minimiert werden, und eine Erweiterung auf Bedingungen, die mehr als ein bewegliches Objekt betreffen. Ein weiteres behandeltes Anwendungsgebiet ist die Modellierung von multivariaten Messungen, die an räumlich verteilten Orten gemessen wurden. Die räumliche Information, die zusammen mit diesen Daten erhoben wurde, kann als Grundlage genutzt werden um Constraints zu formulieren. Mehrere Ansätze zum Erstellen von Modellen auf dieser Art von Daten werden vorgestellt, die räumliche Constraints einhalten. Der erste dieser Ansätze ist ein interaktives Werkzeug, das Fachwissenschaftlern dabei hilft, Modelle der Daten zu erstellen, die mit ihrem Wissen über die Daten übereinstimmen. Der zweite ist eine Monte-Carlo-Simulation, die eine große Menge möglicher Modelle erstellt, testet ob sie mit den Constraints übereinstimmen und das beste Modell zurückgeben. Zwei letzte Ansätze basieren auf dem EM-Algorithmus und benutzen verschiedene Arten diese Information in das Modell zu integrieren. Am Ende werden zwei Anwendungen der gerade vorgestellten Modelle vorgestellt. Die erste ist die Vorhersage der Herkunft von Proben und die andere ist die grafische Darstellung der erstellten Modelle auf einer Karte. Diese Werkzeuge können von Fachwissenschaftlern benutzt werden um ihre bewährten Methoden zu unterstützen. Die entwickelten Methoden werden auf einen realen Datensatz angewendet, der von dem archäo-biologischen Forschungsprojekt FOR 1670 (Transalpine Mobilität und Kulturtransfer der Deutschen Forschungsgemeinschaft erhoben worden ist. Der Datensatz enthält Messungen von Isotopenverhältnissen von Proben, die in archäologischen Fundstellen in den zentraleuropäischen Alpen gefunden wurden. Die präsentierten Datenanalyse-Methoden werden verwendet um diese Daten zu analysieren und relevante Forschungsfragen zu klären. In einer ersten Anwendung werden die Attribute der Messungen analysiert um ihre relative Wichtigkeit und ihre Fähigkeit zu bewerten, die räumliche Herkunft der Proben vorherzusagen. Eine weitere vorgestellte Anwendung ist die Wiederherstellung von möglichen Migrationsrouten zwischen den untersuchten Fundstellen. Danach werden räumliche Modelle der Daten unter Verwendung der vorgestellten Methoden erstellt. Univariate Outlier werden bestimmt und ihre möglich Herkunft basierend auf der erstellten Karte wird bestimmt. Die vorhergesagte Herkunft wird mit der tatsächlichen Fundstelle verglichen. Zuletzt werden Karten der Isotopenverteilung der untersuchten Region vorgestellt. Die beschriebenen Methoden und vorgestellten Analysen zeigen, dass Fachwissen verwendet werden kann um Constraints zu formulieren, die den Datenanalyseprozess unterstützen, um gültige Modelle aus relativ kleinen Datensätzen zu erstellen und Fachwissenschaftler bei ihren Analysen zu unterstützen

    Analyzing complex data using domain constraints

    Get PDF
    Data-driven research approaches are becoming increasingly popular in a growing number of scientific disciplines. While a data-driven research approach can yield superior results, generating the required data can be very costly. This frequently leads to small and complex data sets, in which it is impossible to rely on volume alone to compensate for all shortcomings of the data. To counter this problem, other reliable sources of information must be incorporated. In this work, domain knowledge, as a particularly reliable type of additional information, is used to inform data-driven analysis methods. This domain knowledge is represented as constraints on the possible solutions, which the presented methods can use to inform their analysis. It focusses on spatial constraints as a particularly common type of constraint, but the proposed techniques are general enough to be applied to other types of constraints. In this thesis, new methods using domain constraints for data-driven science applications are discussed. These methods have applications in feature evaluation, route database repair, and Gaussian Mixture modeling of spatial data. The first application focuses on feature evaluation. The presented method receives two representations of the same data: one as the intended target and the other for investigation. It calculates a score indicating how much the two representations agree. A presented application uses this technique to compare a reference attribute set with different subsets to determine the importance and relevance of individual attributes. A second technique analyzes route data for constraint compliance. The presented framework allows the user to specify constraints and possible actions to modify the data. The presented method then uses these inputs to generate a version of the data, which agrees with the constraints, while otherwise reducing the impact of the modifications as much as possible. Two extensions of this schema are presented: an extension to continuously valued costs, which are minimized, and an extension to constraints involving more than one moving object. Another addressed application area is modeling of multivariate measurement data, which was measured at spatially distributed locations. The spatial information recorded with the data can be used as the basis for constraints. This thesis presents multiple approaches to building a model of this kind of data while complying with spatial constraints. The first approach is an interactive tool, which allows domain scientists to generate a model of the data, which complies with their knowledge about the data. The second is a Monte Carlo approach, which generates a large number of possible models, tests them for compliance with the constraints, and returns the best one. The final two approaches are based on the EM algorithm and use different ways of incorporating the information into their models. At the end of the thesis, two applications of the models, which have been generated in the previous chapter, are presented. The first is prediction of the origin of samples and the other is the visual representation of the extracted models on a map. These tools can be used by domain scientists to augment their tried and tested tools. The developed techniques are applied to a real-world data set collected in the archaeobiological research project FOR 1670 (Transalpine mobility and cultural transfer) of the German Science Foundation. The data set contains isotope ratio measurements of samples, which were discovered at archaeological sites in the Alps region of central Europe. Using the presented data analysis methods, the data is analyzed to answer relevant domain questions. In a first application, the attributes of the measurements are analyzed for their relative importance and their ability to predict the spatial location of samples. Another presented application is the reconstruction of potential migration routes between the investigated sites. Then spatial models are built using the presented modeling approaches. Univariate outliers are determined and used to predict locations based on the generated models. These are cross-referenced with the recorded origins. Finally, maps of the isotope distribution in the investigated regions are presented. The described methods and demonstrated analyses show that domain knowledge can be used to formulate constraints that inform the data analysis process to yield valid models from relatively small data sets and support domain scientists in their analyses.Datengetriebene Forschungsansätze werden für eine wachsende Anzahl von wissenschaftlichen Disziplinen immer wichtiger. Obwohl ein datengetriebener Forschungsansatz bessere Ergebnisse erzielen kann, kann es sehr teuer sein die notwendigen Daten zu gewinnen. Dies hat häufig zur Folge, dass kleine und komplexe Datensätze entstehen, bei denen es nicht möglich ist sich auf die Menge der Datenpunkte zu verlassen um Probleme bei der Analyse auszugleichen. Um diesem Problem zu begegnen müssen andere Informationsquellen verwendet werden. Fachwissen als eine besonders zuverlässige Quelle solcher Informationen kann herangezogen werden, um die datengetriebenen Analysemethoden zu unterstützen. Dieses Fachwissen wird ausgedrückt als Constraints (Nebenbedingungen) der möglichen Lösungen, die die vorgestellten Methoden benutzen können um ihre Analyse zu steuern. Der Fokus liegt dabei auf räumlichen Constraints als eine besonders häufige Art von Constraints, aber die vorgeschlagenen Methoden sind allgemein genug um auf andere Arte von Constraints angewendet zu werden. Es werden neue Methoden diskutiert, die Fachwissen für datengetriebene wissenschaftliche Anwendungen verwenden. Diese Methoden haben Anwendungen auf Feature-Evaluation, die Reparatur von Bewegungsdatenbanken und auf Gaussian-Mixture-Modelle von räumlichen Daten. Die erste Anwendung betrifft Feature-Evaluation. Die vorgestellte Methode erhält zwei Repräsentationen der selben Daten: eine als Zielrepräsentation und eine zur Untersuchung. Sie berechnet einen Wert, der aussagt, wie einig sich die beiden Repräsentationen sind. Eine vorgestellte Anwendung benutzt diese Technik um eine Referenzmenge von Attributen mit verschiedenen Untermengen zu vergleichen, um die Wichtigkeit und Relevanz einzelner Attribute zu bestimmen. Eine zweite Technik analysiert die Einhaltung von Constraints in Bewegungsdaten. Das präsentierte Framework erlaubt dem Benutzer Constraints zu definieren und mögliche Aktionen zur Veränderung der Daten anzuwenden. Die präsentierte Methode benutzt diese Eingaben dann um eine neue Variante der Daten zu erstellen, die die Constraints erfüllt ohne die Datenbank mehr als notwendig zu verändern. Zwei Erweiterungen dieser Grundidee werden vorgestellt: eine Erweiterung auf stetige Kostenfunktionen, die minimiert werden, und eine Erweiterung auf Bedingungen, die mehr als ein bewegliches Objekt betreffen. Ein weiteres behandeltes Anwendungsgebiet ist die Modellierung von multivariaten Messungen, die an räumlich verteilten Orten gemessen wurden. Die räumliche Information, die zusammen mit diesen Daten erhoben wurde, kann als Grundlage genutzt werden um Constraints zu formulieren. Mehrere Ansätze zum Erstellen von Modellen auf dieser Art von Daten werden vorgestellt, die räumliche Constraints einhalten. Der erste dieser Ansätze ist ein interaktives Werkzeug, das Fachwissenschaftlern dabei hilft, Modelle der Daten zu erstellen, die mit ihrem Wissen über die Daten übereinstimmen. Der zweite ist eine Monte-Carlo-Simulation, die eine große Menge möglicher Modelle erstellt, testet ob sie mit den Constraints übereinstimmen und das beste Modell zurückgeben. Zwei letzte Ansätze basieren auf dem EM-Algorithmus und benutzen verschiedene Arten diese Information in das Modell zu integrieren. Am Ende werden zwei Anwendungen der gerade vorgestellten Modelle vorgestellt. Die erste ist die Vorhersage der Herkunft von Proben und die andere ist die grafische Darstellung der erstellten Modelle auf einer Karte. Diese Werkzeuge können von Fachwissenschaftlern benutzt werden um ihre bewährten Methoden zu unterstützen. Die entwickelten Methoden werden auf einen realen Datensatz angewendet, der von dem archäo-biologischen Forschungsprojekt FOR 1670 (Transalpine Mobilität und Kulturtransfer der Deutschen Forschungsgemeinschaft erhoben worden ist. Der Datensatz enthält Messungen von Isotopenverhältnissen von Proben, die in archäologischen Fundstellen in den zentraleuropäischen Alpen gefunden wurden. Die präsentierten Datenanalyse-Methoden werden verwendet um diese Daten zu analysieren und relevante Forschungsfragen zu klären. In einer ersten Anwendung werden die Attribute der Messungen analysiert um ihre relative Wichtigkeit und ihre Fähigkeit zu bewerten, die räumliche Herkunft der Proben vorherzusagen. Eine weitere vorgestellte Anwendung ist die Wiederherstellung von möglichen Migrationsrouten zwischen den untersuchten Fundstellen. Danach werden räumliche Modelle der Daten unter Verwendung der vorgestellten Methoden erstellt. Univariate Outlier werden bestimmt und ihre möglich Herkunft basierend auf der erstellten Karte wird bestimmt. Die vorhergesagte Herkunft wird mit der tatsächlichen Fundstelle verglichen. Zuletzt werden Karten der Isotopenverteilung der untersuchten Region vorgestellt. Die beschriebenen Methoden und vorgestellten Analysen zeigen, dass Fachwissen verwendet werden kann um Constraints zu formulieren, die den Datenanalyseprozess unterstützen, um gültige Modelle aus relativ kleinen Datensätzen zu erstellen und Fachwissenschaftler bei ihren Analysen zu unterstützen

    Which isotopes should we choose? Entropy‐based feature ranking enables evaluation of the information content of stable isotopes in archaeofaunal material

    Get PDF
    Rationale Methods for multi‐isotope analyses are gaining in importance in anthropological, archaeological, and ecological studies. However, when material is limited (i.e., archaeological remains), it is obligatory to decide a priori which isotopic system(s) could be omitted without losing information. Methods We introduce a method that enables feature ranking of isotopic systems on the basis of distance‐based entropy. The feature ranking method is evaluated using Gaussian Mixture Model (GMM) clustering as well as a cluster validation index (“trace index”). Results Combinations of features resulting in high entropy values are less important than those resulting in low entropy values structuring the dataset into more distinct clusters. Therefore, this method allows us to rank isotopic systems. The isotope ranking depends on the analyzed dataset, for example, consisting of terrestrial mammals or fish. The feature ranking results were verified by cluster analysis. Conclusions Entropy‐based feature ranking can be used to a priori select the isotopic systems that should be analyzed. Consequently, we strongly suggest that this method should be applied if only limited material is available

    Classification of Salmonella enterica of the (Para-)Typhoid Fever Group by Fourier-Transform Infrared (FTIR) Spectroscopy

    Get PDF
    Typhoidal and para-typhoidal Salmonella are major causes of bacteraemia in resource-limited countries. Diagnostic alternatives to laborious and resource-demanding serotyping are essential. Fourier transform infrared spectroscopy (FTIRS) is a rapidly developing and simple bacterial typing technology. In this study, we assessed the discriminatory power of the FTIRS-based IR Biotyper (Bruker Daltonik GmbH, Bremen, Germany), for the rapid and reliable identification of biochemically confirmed typhoid and paratyphoid fever-associated Salmonella isolates. In total, 359 isolates, comprising 30 S. Typhi, 23 S. Paratyphi A, 23 S. Paratyphi B, and 7 S. Paratyphi C, respectively and other phylogenetically closely related Salmonella serovars belonging to the serogroups O:2, O:4, O:7 and O:9 were tested. The strains were derived from clinical, environmental and food samples collected at different European sites. Applying artificial neural networks, specific automated classifiers were built to discriminate typhoidal serovars from non-typhoidal serovars within each of the four serogroups. The accuracy of the classifiers was 99.9%, 87.0%, 99.5% and 99.0% for Salmonella Typhi, Salmonella Paratyphi A, B and Salmonella Paratyphi C, respectively. The IR Biotyper is a promising tool for fast and reliable detection of typhoidal Salmonella. Hence, IR biotyping may serve as a suitable alternative to conventional approaches for surveillance and diagnostic purposes

    Typing and Species Identification of Clinical Klebsiella Isolates by Fourier Transform Infrared Spectroscopy and Matrix-Assisted Laser Desorption Ionization-Time of Flight Mass Spectrometry

    Get PDF
    Klebsiella pneumoniae and related species are frequent causes of nosocomial infections and outbreaks. Therefore, quick and reliable strain typing is crucial for the detection of transmission routes in the hospital. The aim of this study was to evaluate Fourier transform infrared spectroscopy (FTIR) and matrix-assisted laser desorption ionization-time of flight mass spectrometry (MALDI-TOF MS) as rapid methods for typing clinical Klebsiella isolates in comparison to whole-genome sequencing (WGS), which was considered the gold standard for typing and identification. Here, 68 clinical Klebsiella strains were analyzed by WGS, FTIR, and MALDI-TOF MS. FTIR showed high discriminatory power in comparison to the WGS reference, whereas MALDI-TOF MS exhibited a low ability to type the isolates. MALDI-TOF mass spectra were further analyzed for peaks that showed high specificity for different Klebsiella species. Phylogenetic analysis revealed that the Klebsiella isolates comprised three different species: K. pneumoniae, K. variicola, and K. quasipneumoniae. Genome analysis showed that MALDI-TOF MS can be used to distinguish K. pneumoniae from K. variicola due to shifts of certain mass peaks. The peaks were tentatively identified as three ribosomal proteins (S15p, L28p, L31p) and one stress response protein (YjbJ), which exhibit amino acid differences between the two species. Overall, FTIR has high discriminatory power to recognize the clonal relationship of isolates, thus representing a valuable tool for rapid outbreak analysis and for the detection of transmission events due to fast turnaround times and low costs per sample. Furthermore, specific amino acid substitutions allow the discrimination of K. pneumoniae and K. variicola by MALDI-TOF MS

    Reviews and syntheses : Turning the challenges of partitioning ecosystem evaporation and transpiration into opportunities

    Get PDF
    Evaporation (E) and transpiration (T) respond differently to ongoing changes in climate, atmospheric composition, and land use. It is difficult to partition ecosystem-scale evapotranspiration (ET) measurements into E and T, which makes it difficult to validate satellite data and land surface models. Here, we review current progress in partitioning E and T and provide a prospectus for how to improve theory and observations going forward. Recent advancements in analytical techniques create new opportunities for partitioning E and T at the ecosystem scale, but their assumptions have yet to be fully tested. For example, many approaches to partition E and T rely on the notion that plant canopy conductance and ecosystem water use efficiency exhibit optimal responses to atmospheric vapor pressure deficit (D). We use observations from 240 eddy covariance flux towers to demonstrate that optimal ecosystem response to D is a reasonable assumption, in agreement with recent studies, but more analysis is necessary to determine the conditions for which this assumption holds. Another critical assumption for many partitioning approaches is that ET can be approximated as T during ideal transpiring conditions, which has been challenged by observational studies. We demonstrate that T can exceed 95% of ET from certain ecosystems, but other ecosystems do not appear to reach this value, which suggests that this assumption is ecosystem-dependent with implications for partitioning. It is important to further improve approaches for partitioning E and T, yet few multi-method comparisons have been undertaken to date. Advances in our understanding of carbon-water coupling at the stomatal, leaf, and canopy level open new perspectives on how to quantify T via its strong coupling with photosynthesis. Photosynthesis can be constrained at the ecosystem and global scales with emerging data sources including solar-induced fluorescence, carbonyl sulfide flux measurements, thermography, and more. Such comparisons would improve our mechanistic understanding of ecosystem water fluxes and provide the observations necessary to validate remote sensing algorithms and land surface models to understand the changing global water cycle.Peer reviewe

    The effect of relative humidity on eddy covariance latent heat flux measurements and its implication for partitioning into transpiration and evaporation

    Get PDF
    While the eddy covariance (EC) technique is a well-established method for measuring water fluxes (i.e., evaporation or 'evapotranspiration’, ET), the measurement is susceptible to many uncertainties. One such issue is the potential underestimation of ET when relative humidity (RH) is high (>70%), due to low-pass filtering with some EC systems. Yet, this underestimation for different types of EC systems (e.g. open-path or closed-path sensors) has not been characterized for synthesis datasets such as the widely used FLUXNET2015 dataset. Here, we assess the RH-associated underestimation of latent heat fluxes (LE, or ET) from different EC systems for 163 sites in the FLUXNET2015 dataset. We found that the LE underestimation is most apparent during hours when RH is higher than 70%, predominantly observed at sites using closed-path EC systems, but the extent of the LE underestimation is highly site-specific. We then propose a machine learning based method to correct for this underestimation, and compare it to two energy balance closure based LE correction approaches (Bowen ratio correction, BRC, and attributing all errors to LE). Our correction increases LE by 189% for closed-path sites at high RH (>90%), while BRC increases LE by around 30% for all RH conditions. Additionally, we assess the influence of these corrections on ET-based transpiration (T) estimates using two different ET partitioning methods. Results show opposite responses (increasing vs. slightly decreasing T-to-ET ratios, T/ET) between the two methods when comparing T based on corrected and uncorrected LE. Overall, our results demonstrate the existence of a high RH bias in water fluxes in the FLUXNET2015 dataset and suggest that this bias is a pronounced source of uncertainty in ET measurements to be considered when estimating ecosystem T/ET and WUE.Peer reviewe

    Towards long-term standardised carbon and greenhouse gas observations for monitoring Europe's terrestrial ecosystems : a review

    Get PDF
    Research infrastructures play a key role in launching a new generation of integrated long-term, geographically distributed observation programmes designed to monitor climate change, better understand its impacts on global ecosystems, and evaluate possible mitigation and adaptation strategies. The pan-European Integrated Carbon Observation System combines carbon and greenhouse gas (GHG; CO2, CH4, N2O, H2O) observations within the atmosphere, terrestrial ecosystems and oceans. High-precision measurements are obtained using standardised methodologies, are centrally processed and openly available in a traceable and verifiable fashion in combination with detailed metadata. The Integrated Carbon Observation System ecosystem station network aims to sample climate and land-cover variability across Europe. In addition to GHG flux measurements, a large set of complementary data (including management practices, vegetation and soil characteristics) is collected to support the interpretation, spatial upscaling and modelling of observed ecosystem carbon and GHG dynamics. The applied sampling design was developed and formulated in protocols by the scientific community, representing a trade-off between an ideal dataset and practical feasibility. The use of open-access, high-quality and multi-level data products by different user communities is crucial for the Integrated Carbon Observation System in order to achieve its scientific potential and societal value.Peer reviewe

    Zeitoptimale Steuerung des zweiachsgelenkten Roboters: Eine Fallstudie zur optimalen Steuerung nichtholonomer Systeme

    No full text
    In this thesis, time-optimal control of the bi-steerable robot is addressed. The bi-steerable robot, a vehicle with two independently steerable axles, is a complex nonholonomic system with applications in many areas of land-based robotics. Motion planning and optimal control are challenging tasks for this system, since standard control schemes do not apply. The model of the bi-steerable robot considered here is a reduced kinematic model with the driving velocity and the steering angles of the front and rear axle as inputs. The steering angles of the two axles can be set independently from each other. The reduced kinematic model is a control system with affine and non-affine inputs, as the driving velocity enters the system linearly, whereas the steering angles enter nonlinearly. In this work, a new approach to solve the time-optimal control problem for the bi-steerable robot is presented. In contrast to most standard methods for time-optimal control, our approach does not exclusively rely on discretization and purely numerical methods. Instead, the Pontryagin Maximum Principle is used to characterize candidates for time-optimal solutions. The resultant boundary value problem is solved by optimization to obtain solutions to the path planning problem over a given time horizon. The time horizon is decreased and the path planning is iterated to approximate a time-optimal solution. An optimality condition is introduced which depends on the number of cusps, i.e., reversals of the driving direction of the robot. This optimality condition allows to single out non-optimal solutions with too many cusps. In general, our approach only gives approximations of time-optimal solutions, since only normal regular extremals are considered as solutions to the path planning problem, and the path planning is terminated when an extremal with minimal number of cusps is found. However, for most desired configurations, normal regular extremals with the minimal number of cusps provide time-optimal solutions for the bi-steerable robot. The convergence of the approach is analyzed and its probabilistic completeness is shown. Moreover, simulation results on time-optimal solutions for the bi-steerable robot are presented.In dieser Dissertation wird die zeitoptimale Steuerung des zweiachsgelenkten Roboters behandelt. Der zweiachsgelenkte Roboter, ein Fahrzeug mit zwei voneinander unabhängig lenkbaren Achsen, ist ein komplexes nichtholonomes System mit Anwendungen in vielen Bereichen der Land-Robotik. Bahnplanung und optimale Steuerung sind anspruchsvolle Aufgaben für dieses System, da Standardverfahren hierfür nicht anwendbar sind. Das hier betrachtete Modell des zweiachsgelenkten Roboters ist ein reduziertes kinematisches Modell mit der Fahrgeschwindigkeit und den Lenkwinkeln als Eingangsgrößen. Die Lenkwinkel der beiden Achsen können unabhängig voneinander vorgegeben werden. Das reduzierte kinematische Modell ist ein Kontrollsystem mit affinen und nichtaffinen Eingängen, da die Fahrgeschwindigkeit linear in das System eingeht, während die Lenkwinkel nichtlineare Eingangsgrößen sind. In dieser Arbeit wird ein neuer Ansatz zur Lösung des zeitoptimalen Steuerungsproblems für den zweiachsgelenkten Roboter vorgestellt. Im Gegensatz zu den meisten Standardmethoden für die zeitoptimale Steuerung basiert unser Ansatz nicht ausschließlich auf Diskretisierung und rein numerischen Verfahren. Stattdessen wird das Pontryagin Maximum Prinzip angewendet, um Kandidaten für zeitoptimale Lösungen zu charakterisieren. Das sich dabei ergebende Randwertproblem wird durch Optimierung gelöst, um Lösungen für das Bahnplanungsproblem über einem bestimmten Zeithorizont zu erhalten. Die Bahnplanung wird über einem abnehmenden Zeithorizont iteriert, um eine zeitoptimale Lösung zu approximieren. Eine Optimalitätsbedingung wird eingeführt, die von der Anzahl der Richtungsumkehrungen des Roboters abhängt. Diese Optimalitätsbedingung erlaubt es, nichtoptimale Lösungen mit zu vielen Richtungsumkehrungen auszusondern. Im Allgemeinen liefert unser Ansatz nur Approximationen zeitoptimaler Lösungen, da nur normale reguläre Extremalen als Lösungen für das Bahnplanungsproblem betrachtet werden und die Bahnplanung beendet wird, sobald eine Extremale mit der minimalen Anzahl von Richtungsumkehrungen gefunden wurde. Allerdings ergeben normale reguläre Extremalen mit der minimalen Anzahl von Richtungsumkehrungen für die meisten Zielkonfigurationen des zweiachsgelenkten Roboters zeitoptimale Lösungen. Die Konvergenz des Ansatzes wird untersucht und seine probabilistische Vollständigkeit wird bewiesen. Des Weiteren werden Simulationsergebnisse für zeitoptimale Lösungen des zweiachsgelenkten Roboters präsentiert
    corecore